Se volete citare un passaggio specifico di questo articolo indicate il numero del paragrafo; se volete potete anche creare un link diretto al singolo paragrafo usando il tag Anchor e il relativo numero
[1] Il rilascio al grande pubblico di ChatGTP ha reso urgente una riflessione approfondita sulla cosiddetta “intelligenza artificiale”, perché il nuovo strumento di OpenAi ha reso disponibile per tutti una tecnologia pervasiva che potenzialmente può trasformare la nostra vita in moltissimi campi.
[2] Il passo più urgente mi pare una riflessione sul criterio di demarcazione tra ciò che è propriamente umano e ciò che non lo è. Si tratta di un passaggio strategico perché solo dopo aver stabilito (almeno a grandi linee) questo confine capiremo meglio ciò che è irrinunciabile (ciò che è propriamente umano) e ciò che può essere demandato alle macchine. Non è un affare semplice, perché questo confine si è spostato nel tempo, variando essenzialmente con lo sviluppo della tecnologia, che a sua volta non è una semplice protesi dell’umano ma ne è il prolungamento “naturalmente artificiale”, essendo una specie di “secondo corpo” dell’uomo.
[3] Questo ridisegnamento dei confini dell’umano avviene anche in altre direzioni, attraverso metafore create dalla fantascienza (i cyborg) o dalla letteratura horror (gli zombie), oppure attraverso una rilettura del rapporto con gli animali, per quali si comincia a ragionare in termini di “persone non umane”.
[4] Sulla frontiera che ci interessa qui, ossia quella della cosiddetta “Intelligenza artificiale”, il diaframma che sembra caduto è quello della “capacità inventiva”.
[5] Fino a questo momento si riconosceva alle banche dati della rete una superiorità invincibile nel campo della “memoria”, intendendo con questo termine il semplice stoccaggio delle informazioni. Gli hard disk esterni o più banalmente le schede di memoria dei cellulari visualizzano un fenomeno più ampio: demandiamo alle macchine la conservazione delle informazioni, dato che le macchine possono contenerne molte di più, con maggior ordine e con maggiore stabilità. Si era trattato di un significativo arretramento del confine tra ciò che è “propriamente umano” e ciò che non lo è: se il compito della pura conservazione dei dati può essere svolto da una macchina, e può essere svolto meglio che dall’uomo, è arduo inserire la memoria (sempre intesa come semplice “deposito” dei dati) tra le caratteristiche che ci costituiscono come “umani”.
[6] Un altro arretramento, strettamente collegato al primo, si è avuto sul fronte della “capacità di calcolo”, inteso come la semplice ricombinazione di elementi dati (quelli presenti nella memoria, appunto), lavoro che le macchine svolgono a una velocità enormemente superiore al cervello. Momento simbolo di questo confronto è la partita tra il campione del mondo di scacchi Garry Kasparov e il computer Deep Blue dell IBM, giocata il 10 febbraio 1996: la prima in cui un computer sconfisse un grande maestro in uno confronto ai massimi livelli possibili. Da questo momento in poi le sconfitte dei maestri “umani” non si contano più, al punto che si devono organizzare dei campionati separati per i computer. Il vantaggio insuperabile su cui possono contare le macchine in questo caso è rappresentato dal fatto di avere in memoria tutte le partite giocate nella storia e di poterle consultare tutte in una frazione di secondo, analizzando la situazione sulla scacchiera e prevedendo non le successive dieci-quindici mosse, come può fare un umano, ma migliaia e migliaia di varianti possibili (anche se è arduo sostenere che possono prevedere tutte le varianti possibili).
[7] La ritirata dell’umano fu allora sulla “capacità inventiva”: in fondo i computer non facevano altro che “calcoli”, sfruttando la tecnologia per portare alle estreme conseguenze una semplice “ars combinatoria”, senza introdurre mai qualcosa di realmente nuovo. Il campo dell’arte e della poesia sembrava salvo, e poteva essere portato a esempio di ciò che “veramente umano”. ChatGTP sembra fare irruzione in questa cittadella. Quando gli si pone una domanda, “esso” (uso consapevolmente questo pronome per ricordare anche lessicalmente che si tratta solo di una macchina) lascia passare qualche secondo (quelli che, se fosse un umano, noi descriveremmo come una “pausa di riflessione”) e poi comincia a far apparire con scioltezza una serie di caratteri sullo schermo. Come nei film di fantascienza, il computer sembra acquistare vita e si mette a scrivere da solo un testo che, seppure a volte rozzo, non è mai esistito prima di quel momento. Esso non va a pescare nelle sue banche dati una risposta già pronta: ricombinando, indubbiamente, informazioni già esistenti nelle sue banche dati produce qualcosa di nuovo e di sensato.
[8] Cominciamo con una osservazione collaterale: questo modo di procedere ci ricorda un tema comune nei dibattiti filosofici attorno all’idealismo ottocentesco, ossia l’importanza della “relazione in sè” rispetto agli “elementi” preesistenti che entrano nella relazione stessa. Una realtà, un pensiero, un discorso sono sempre qualcosa di più rispetto alla semplice somma degli elementi che li compongono: questo “di più” è proprio la relazione tra gli elementi materiali, che non può essere a sua volta un elemento (perché altrimenti il problema di sposterebbe). In altre parole: provate a prendere una banconota da 50 euro dal vostro portafoglio e bruciatela. Da punto di vista puramente materialista la quantità di molecole e di atomi è rimasta invariata, ma nessuno si sognerebbe di presentarsi in cassa con un mucchietto di cenere. Qualcosa è cambiato tra il “prima” e il “poi”: è venuta meno appunto l’organizzazione delle molecole, il loro essere in quella particolare relazione reciproca che faceva esistere quel qualcosa che chiamavamo “banconota”.
[9] Torniamo alle costruzioni lessicali di ChatGTP. Rispetto ai discorsi umani, è possibile individuare una differenza essenziale?
Almeno in un punto, sembra resistere una differenza: i discorsi umani hanno o possono avere un carattere performativo, quelli di ChatGTP no. Quando un umano parla, può “fare cose” con le parole, mentre un software no. Quando due innamorati si sposano, è il loro dire “si” alla domanda del celebrante che letteralmente fa esistere il matrimonio, ossia quella particolare forma di relazione tra umani che noi indichiamo con questa parola. C’è un plus, in quell’atto, che rappresenta una sporgenza, una trascendenza se si vuole, rispetto alla semplice formulazione delle parole, tant’è vero che nessuno si è mai sognato di considerare “vero” un matrimonio rappresentato su un palcoscenico teatrale o su un set cinematografico: le parole possono essere le stesse, l’intenzione sicuramente no. Lo stesso vale per ChatGTP, che potrebbe essere programmato per rispondere “si, lo voglio” senza che nessuno prenda queste parole per un vero atto nuziale.
[10] Gli esempi si possono moltiplicare. Per esempio il soldato catturato che di fronte alla richiesta di tradire i compagni se non vuol essere trucidato risponde “no” non pronuncia solo una consonante e una vocale, cosa che potrebbe fare anche un computer: accetta di firmare la propria condanna a morte.
[11] In generale, quindi, le parole umane hanno (o possono avere) delle conseguenze per chi le pronuncia. Non tutte le parole, è chiaro: che io sappia o no la data della battaglia di Hastings è solo una questione di memorie (al plurale, dato che ormai le neuroscienze hanno appurato l’esistenza di molti livelli di questa funzione della coscienza), e il suo possesso può essere demandato tranquillamente alla macchina (forse non tanto tranquillamente, pensandoci bene); alla macchina può essere demandato anche il suo impiego in un discorso sulla storia d’Inghilterra. Ma se un altro essere umano mi dicesse che la battaglia è stata combattuta nel 1323 e volesse costringermi ad ammettere questa falsità (la battaglia di Hastings è stata combattuta il 14 ottobre 1066), ecco che si passerebbe al livello successivo, quello propriamente umano: posto che io decidessi di tenere fermo il punto della verità storica, dovrei impegnarmi a ripetere che l’affermazione per cui la battaglia di Hastings è stata combattuta nel 1323 è falsa, a costo di subire le conseguenze della mia affermazione (“Rimangiati quello che hai detto o te lo faccio sputare a suon di pugni”, tanto per citare qualche B movie di bassa lega). Questo ChatGTP non può farlo, e non può farlo perché semplicemente non è umano (non è ciò che noi consideriamo propriamente umano).